郑戈:如何用法律规制算法?如何用算法强化法律? ︱ 中法评
郑戈
上海交通大学凯原法学院教授
上海高校特聘教授(东方学者)
人工智能是使计算机能够学习、分析和决策的算法。随着万物联网时代的到来、计算机算力的不断提升、深度学习和强化学习系统的突飞猛进,人工智能学习的素材和结果都取得了令人惊叹的发展,并开始进入人们的曰常生活,改变着人们的行为模式、交往方式、决策方式、商业模式和社会秩序生成机制。
这些变化一方面改变了法律所要面对的问题域,另一方面也改变着法律本身的运作模式。大数据基础上的智能算法造就了新的权力形态,也呼唤着新的权利保护模式。
本文围绕着两个关键问题展开分析:一是如何用法律规制算法;二是如何用算法强化法律。在此基础上,本文也展望了法治的未来图景。
目次
一、问题的提出
二、算法的法律
(一)创设新的法律人格
(二)矫正正义模式
(三)风险控制模式
(四)预防模式
(五)算法规则和算法伦理模式
(六)算法可解释性问题
三、法律的算法
(一)法律算法化的前提条件
(二)法律算法的应用场景
(三)概率论的法律算法:以美国律师职业中的算法产品为例
(四)决定论的法律算法
(五)遗传算法与政策/法律的虚拟试错
四、未来法治
本文原题为《算法的法律与法律的算法》,首发于《中国法律评论》2018年第2期思想栏目(第66—85页),原文26000余字,因篇幅所限,本期推送删除所有注释,并对原文进行删改。如需引用,请点此购刊,参阅纸版原文。
问题的提出
戊戌年春节刚过,就有两则关于人工智能的新闻先后在微信朋友圈“刷屏”。一则是关于特斯拉自动驾驶汽车的,另一则是关于一款法律人工智能产品(被称为“律政界AlphaGo”)的。
自动驾驶汽车是人工智能最热门的应用领域之一,它结合了智能算法、传感器和执行器,可以说是一种有“感知”、“判断”和“执行”能力的智能产品。
其鼓吹者不仅宣称自动驾驶汽车将大大减少目前全球每年100多万的因交通事故死亡的人数,最终“将人类赶出驾驶座”,而且指出自动驾驶汽车将带来一系列生产力和生产关系方面的根本变革,比如人们可以在交通工具上工作,通勤时间不再是成本,而变成创造价值的时间,购买汽车并且让汽车大部分时间都躺在车库或停车场将被大多数人视为不明智的选择,召之即来呼之即去的自动驾驶汽车将使汽车成为24小时都在路上的共享物品,这将极大缓解交通拥堵和停车位紧张等令人头疼的城市问题。
但自动驾驶汽车真的安全吗?人们都能把自己的人身安全交托给一部由算法控制的机器吗?当这部机器导致了人身伤亡和财产损失的时候,法律责任应如何分配。这些都是特斯拉事件促使我们再三思考的问题。
2018年2月27日,央视新闻客户端报道:历时一年多的河北邯郸车主高巨斌因特斯拉的Model S自动驾驶汽车在自动驾驶状态下发生事故造成其子高雅宁死亡而起诉特斯拉公司一案有了新进展,此前一直主张“没有办法知道”发生事故时车辆是否启用了“自动驾驶(Autopilot)”的特斯拉在大量证据面前被迫承认车辆在案发时处于自动驾驶状态。
这起事故发生在2016年1月20日,是全球首起自动驾驶汽车致死事件。就在同年5月的一天,40岁的美国退伍兵、网络设备公司老板约书亚·布朗(Joshua Brown)驾驶的一辆特斯拉Model S自动驾驶汽车在佛罗里达州列维(Levy County)县的27A美国高速公路上与一辆卡车相撞,布朗当场死亡。
美国国家交通安全委员会(NTSB)的调查表明,布朗和自动驾驶系统都未能识别出这辆卡车,特斯拉直接从卡车下面穿过,车顶被掀开,布朗的头部严重受伤,直到撞到一棵树上才停下。汽车的气囊在撞上卡车时也未打开,直到撞树时才打开。
值得注意的是,这两起事故发生时,中美两国都未曾制定允许自动驾驶汽车上路的道路交通管理规则和事故责任规则。直到今天,相关的规则也仍在酝酿过程之中。
而这些事故使我们看到,智能算法操纵的汽车早已默默上路,正在与人类司机驾驶的汽车互动。事故早已先于规则出现。同时,这两起事故中丧生的司机都是退伍军人,这个特定身份或许意味着他们敢于冒险,在事故发生时他们都没有“驾驶”汽车,而是放心地把自己的安危交给智能算法。
但现实生活中大多数人都是“风险规避者”,对于不能确定是否安全的新产品,我们总是不愿意贸然去尝试。立法可以起到稳定人心的作用:虽然法律不能消除事故,但可以让人们觉得有安全保障。
这类事件引出了本文要讨论的第一个问题,即算法的法律。
我们正在进入“算法统治的时代”。越来越多的人拥有不只一种穿戴式智能设备,从智能手机、智能手环、智能眼镜到智能运动鞋、智能手套、智能服装,我们有些人生活在智能家居环境中,室内遍布着智能照明系统、智能冰箱、智能洗衣机、扫地机器人、擦窗机器人,等等。
这些设备随时随刻都在向“云端”传送着我们的各种信息,从心跳、脉搏等身体信息到消费信息、饮食习惯、活动轨迹等等。我们因此成为“物联网”时代的“量化自我”(Quantified Self)或“可测度的自我”(measurable self),我们的一举一动都留下了电子痕迹,变成可供处理、分析和利用的数据。但我们并不拥有这些数据,也无法控制这些数据,数据属于为我们提供各种服务的“大数据掌控者”。
因此,量化自我可能是一个不准确的概念,它让我们误以为我们可以借助大数据来更好地进行自我管理和自我实现。更准确的概念应该是“被强加给个人的量化身份”。
人不是数据,更不是电子痕迹的汇总,但技术正在使数据化、碎片化的得到处理和整合,形成各种各样的自动化区分、评分、排序和决策,这些活动反对来使我们的“真实自我”在社会层面变得无关紧要。
我们进入所谓“微粒社会”,我们都成为数据,并最终成为被算法所定义的人。算法权力(algorithmic power)这种新兴的权力并不把我们当成“主体”来对待,而是作为可计算、可预测、可控制的客体。
在这里,马克思和恩格斯在一百多年以前所描述的资本主义对全部社会关系的革命性改造在数字技术的帮助下以更加彻底的方式得以推进:“一切固定的僵化的关系以及与之相适应的素被尊崇的观念和见解都被消除了,一切新形成的关系等不到固定下来就陈旧了。一切等级的和固定的东西都烟消云散了,一切神圣的东西都被亵渎了。”
大数据掌控者们借助越来越智能化的算法分析和利用着我们的数据,开发着靠数据化的人类经验喂养的人工智能产品,在为我们的生活提供越来越多的便利的同时影响着我们的选择和决策,并在此过程中积累起日益膨胀的财富、技术和人力资源。
我们时常听到各种美妙的新词汇,比如共享经济,似乎我们都是这个新世界的主人,分享着它所带来的各种好处,但“共享经济其实是一种聚合经济”,它所产生的巨大利益属于聚合数据的平台或“架构”,我们都在为自己的消费付费,而我们在消费的同时也都在生产,生产着数据,但没人为我们的数据生产支付报酬,我们生产性的消费者(prosumer),“免费”使用app或其它网络服务就是我们的报酬。
由此可见,有形的自动驾驶汽车只是算法影响人类生活的一个有形的例子,而无形的智能算法已经改变了我们生产方式、消费方式和生产关系、社会关系。法律如何规制算法,解决算法所带来的主体性流失、权利损害和歧视问题?现有的立法和规制模式已经提供了一些可供参考的方案,通过比较这些方案,评析其利弊,我们可以形成一条相对清晰的思路。
第二则新闻是:专门从事法律人工智能产品开发的LawGeex公司与斯坦福、杜克和南加州大学的法学教授们合作进行了一项新的研究,让20名有经验的律师与训练好的法律智能算法竞赛,在四小时之内审查五份保密协议,找出包括保密关系、保密范围、仲裁、赔偿在内的30个法律问题点,以界定法律问题的准确和明晰程度作为得分点。人类律师平均花费92分钟完成了任务,准确率是85%,而人工智能系统仅用了26秒就完成任务,准确率高达95%。
实际上,这也不是人工智能在法律技能竞赛中第一次打败人类了。
2017年11月,剑桥大学法学院的学生们组织一次人-机法律竞赛,由112位自愿报名参赛的律师和开发法律人工智能产品的新创企业CaseCrunch的一款产品进行比赛,比赛内容是预测金融申诉专员(Financial Ombudsman)对付款保障保险(PPI)不当销售申诉实际案例的裁断,结果是人工智能产品的预测准确率高达86.6%,而人类律师的预测准确率只有62.3%。
这一类事件涉及本文要讨论的第二个问题:法律的算法,即法律人的推理和判断在多大程度上能够被算法所取代,或者说,法律职业在多大程度上能够被法律人工智能产品所取代。
这可以说是法律职业者们所关心的问题。算法能为法律做什么,取决于我们对法律思维和法律方法的理解,也取决于算法本身的发展状态。本文第三部分将重点讨论法律算法化的可能性及其限度。
信息技术革命带来了新的权力形态,导致了“算力即权力”的新现象,同时也使传统上用来抗衡国家权力的公民权利面对更隐微、更无所不在、更多元化的权力技术的侵蚀。法律是一种技艺,更是一套形塑体现人类基本价值的良好秩序的规范体系。面对新型的权力格局和权利处境,法治将向何处发展?未来的法治秩序将呈现何种面貌?这是本文最后一部分将会讨论的问题。
算法的法律
技术是导致经济-社会变革的重要变量之一,而且是不可逆转的变量。法国哲学家德布雷写道:
“
“归根到底,唯一跳出星球运转的循环意义外的革命不是政治革命而是技术革命,因为只有它们才是不复返的。有了电流后就不再用蜡烛,有了汽轮船就不再用帆船。然而有了十月革命还是回到了东正教⋯⋯。”
人工智能是一种正在给人类社会带来全方位的深刻变革的技术,正像所有的技术一样,它服务于特定的人类目的。但机器学习(尤其是无监督学习)结果的不可控性又使得人工智能不同于以往的技术,其中蕴涵着更大的风险和不确定性。法律应当如何规制人工智能,从而在鼓励创新的同时保护人类社会的基本价值并将风险保持在可控范围之内?
这是一个已经引起广泛讨论和立法回应的问题。
(一)创设新的法律人格
人工智能从某种意义上讲是一种能够学习、判断和决策的算法,它模仿和替代人类智能的潜质促使人们重新思考人与机器之间的关系。德国思想家卢曼指出:“电子数据处理技术已经改变了人与机器之间的关系。这种技术不能再被认为是对体力劳动的辅助,因此要求我们重新界定人与机器的关系。‘人工智能’研究体现了这种变化——甚至开始质疑将问题表述成人机关系就认知科学的目的而言是否妥当。”
对“人机关系”新形态最先作出立法回应的是欧盟。
2016年,欧洲议会提出了“机器人法”立法建议报告。鉴于人工智能可能在无人监管的情况下做出“决策“并自主执行这样的”决策“,该报告在第50(f)项建议:
“
“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。”
韩国国会正在讨论的《机器人基本法案》以欧盟的这份报告为范本,也提出要“赋予机器人以享有权利并承担义务的电子人格。”沙特阿拉伯则在没有相关立法的情况下在2017年授予一家香港公司生产的机器人索菲亚以公民身份并向“她”发放了护照,其主要目的是给沙特的人工智能发展战略做宣传。
实际上,在如何落实这种“法律人格”所必然带来的民事行为能力和责任能力时,欧洲议会报告并没有提出具体的方案。如果机器人对人造成了损害,无论是适用罗马法中的“缴出赔偿”(noxoe deditio)原则(即把机器人交给受害者或其家属处置),还是让机器人支付赔偿金或坐牢,最终承担责任的始终是机器人的“主人”,因为机器人不可能有独立的收入,限制它的“自由”则等于剥夺了其“主人”的财产权。
由此可见,机器人无论以何种方式承担责任,最终的责任承担者都是人,这使得它的“法律人格”显得多余和毫无必要,经不住“奥康剃刀”(如无必要,勿增实体)的检验。实际上,这份报告在具体的规则设计部分也自动放弃了适用机器人“法律人格”的努力,比如,它提议制造商为他们的机器人购买强制性保险。此外,还要设立专门的基金来补充保险机制,主要的出资人也是制造商、经销商和其他利益相关者。
赋予具有自动化决策(ADM)能力的人工智能体以法律人格并不是一种完全不可行的模式,不可行的是目前这种缺乏相应法律能力和法律责任分配机制的简单拟人化模式。
出于解决问题的需要,法律当中充满着各种拟制(fictions),“法人”这种“不可见、不可触、只存在于法律的凝思之中” 就是其中的一种,它导致了独立于自然人的行为能力和责任能力规则。要使“电子人”这一新的法律拟制有意义,就必须对智能算法的设计原理、它与人(设计者和使用者)之间的互动模式以及它做出决策的自主程度进行详细的研究、分类和基于应用场景的规则设计,从而使它能够带来现行自然人和法人概念所无法得出的权责规则。
(二)矫正正义模式
(略)
(三)风险控制模式
(略)
(四)预防模式
(略)
(五)算法规则和算法伦理模式
(略)
(六)算法可解释性问题
在美国,已经有案例涉及到算法黑箱问题。
2013年初,威斯康辛州指控艾瑞克·鲁米斯(Eric Loomis)五项刑事罪行,都和一起驾车枪击事件有关。鲁米斯否认自己参与了枪击,但承认自己在案发当晚驾驶过那辆车。在辩诉交易中,他承认了两项较轻的罪名:“企图逃避交警以及未经车主同意擅自驾车”。在量刑阶段,法院收到州政府罪犯改造部门提交的一份量刑前调查报告(PSI),其中包含再犯风险评估内容(COMPAS)。
在初审判决中,法院在量刑部分援引了COMPAS评估的内容,并且部分基于这一评估判处鲁米斯六年监禁外加五年监外管制。在申请定罪后救济动议(motion for post-conviction relief)被拒后,威斯康辛州上诉法院批准了向州最高法院上诉。鲁米斯的上诉理由是法院对COMPAS评估的依赖侵犯了他的正当程序权利。
正当程序权利包括获得个别化量刑考量的权利(the right to an individualized sentence)以及基于准确信息而受量刑的权利(the right to be sentenced on accurate information)。
由于COMPAS评估报告提供的数据是类型化的,未能充分体现个人特殊性,同时由于作出评估的方法是COMPAS算法的提供者Northpointe公司的商业秘密,其可靠性无从判断,鲁米斯主张自己的上诉两项权利受到了侵犯。此外,他还声称该算法评估将他的性别作为一个因素加以考量,侵犯了他的平等权。
威斯康辛州最高法院支持了初审法院的判决。在安·布拉德利(Ann Walsh Bradley)大法官撰写的多数派意见中,鲁米斯的正当程序和平等权主张被一一否定。
首先,法院认为性别因素是作为提升评估准确性的目的而非歧视目的而进入算法参数的,而且鲁米斯无法证明法院在量刑时的确考量了性别因素,因此他的平等权并未受到侵犯。
其次,因为COMPAS所分析的数据是记录在案的公共数据(犯罪纪录)和被告自己提供的数据(他对137个问题的回答),因此,被告在算法评估结果出来之前本来就有机会否认或解释相关信息,也有机会验证相关信息的准确性,因此质疑信息准确性的主张站不住脚。
最后,关于量刑个别化问题,法院承认COMPAS算法评估的结论揭示的是与鲁米斯相似的一类人的再犯风险,但指出该评估结论不是法院作出量刑判决的唯一依据,由于法院拥有在其认为适当的情况下不同意评估结论的裁量权和相关证据,因此该量刑判决是充分个别化的。
从这个案例可以看出,当算法涉嫌针对个人作出了歧视性的或错误的评估或决策的时候,至少在美国,法院倾向于保护算法产品厂商的商业秘密,这种权益被视为没有争议的前提,法院不会要求厂商公开算法代码,也没有要求厂商用自然语言解释算法的设计原理、功能和目的。
但算法可解释性是“算法的法律”可以成立的前提。人不可能控制或约束自己不懂的东西。之所以说人工智能算法进行深入学习的过程是个黑盒子,主要的原因除了它的保密性外,更重要的是即使公开了法官和律师也看不懂。算法可解释性乃至可视化是一个可以用技术解决的问题,一旦法律提出了相关要求,技术界便会想方设法使算法成为可解释的。
比如,在今年3月7日,谷歌大脑团队的克里斯·欧拉(Chris Olah)公布了一项题为“可解释性的基础构件”的研究成果,该成果解决了神经网络这种最令人难以捉摸的算法的可视化问题,谷歌将其比喻为人工神经网络的核磁共振成像(MRI)。如果说神经网络算法所处理的海量数据及其复杂运算过程会使人脑“超载”的话,这种可视化解释技术简化了相关信息,使算法的工作状态回到了“人类尺度”,能够被普通人看懂和理解。
谷歌还对这种“解释算法的算法”做了开源化处理,使其他技术人员能够在此基础上编写适用于不同算法和场景的解释性算法。
由此可见,法律进入算法不能靠立法者和规制者的单方面努力,而需要法律人与技术人员的合作。
正如李彦宏等人在《算法革命》中所指出的那样:
“
“……也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”
法律人可以向技术人员解释法律规则的要求,而技术人员可以设计出符合法律要求的算法。法律和技术都是非自然的“人工”造物,两者都服务于使人类生活更加美好的目的。
在人工智能时代,一种新的职业——法律知识工程师——正在诞生,这种职业是由能够用技术解决法律问题的人士和能够用法律服务技术发展并将技术套上法律缰绳的人士共同组成的。人工智能是能够在给定问题的前提下通过深度学习和强化学习寻求最优解的智能算法,它需要人类提出正确的问题,对错误问题的正确解答可能带来灾难性的后果。
法律就是用来划定问题域之边界的,它不能确保最佳问题的出现,但可以防止最邪恶问题的提出。
法律的算法
如何用算法来强化法律取决于人们对法律、法律推理和法律判断本身性质的认识,而统一的认识并不存在。因此,关于人工智能在法律领域之应用的讨论迫使人们回到基础性的法理学问题。
从世界上第一份专业的人工智能与法律期刊Artificial Intelligence and Law上所发表的论文来看,绝大多数是基于分析主义法学对法律的理解来讨论如何建模的文章。这一现象是由人工智能本身的认识论基础决定的,但它也使丰富的法理学讨论贫弱化。当我们用技术来解决人类问题的时候,意味着人类问题本身的复杂性和丰富性被简化了,这是一个普遍的问题。
人工智能的认识论基础是“认知可计算化”,在人工智能技术的几大流派中,符号主义试图用符号-逻辑演算来模拟人类大脑的认知和决策过程;连接主义(又称神经网络学派)试图通过人造神经网络的并行计算来建构大脑;而行为主义者则试图通过遗传算法进化出人工大脑。
它们的基础假设都包括:
(1)大脑是人类认知和智能活动的载体;
(2)认知和智能活动是一个物理-化学过程,其机理主要是神经元之间通过分泌化学递质和释放电子来完成的信息交流;
(3)图灵机可以模拟任何物理-化学过程;
(4)通过分析和处理真实人类世界的行为数据可以用机器来模拟人类的认知和决策,反过来,通过研究虚拟世界各种人工智能的详情可以把握真实世界人类认知和智能活动的基本结构和过程;
(5)一切认知和智能活动的复杂系统都可以通过各个组成部分的动态行为和整体交互作用来解释(整体主义的还原主义假设)。
认知可计算化,人脑功能最终可以用计算机模拟,这一认识论不仅被许多计算机专家所接受,而且得到来自脑科学家的佐证。主流的脑科学家相信,人脑是由一千亿个神经元构成的,神经元之间的连接方式决定了我们的所思所想,除了神经元之间的物理通讯机制(放电)和化学通讯机制(分泌递质)之外,我们找不到任何自我意识或灵魂存在的依据。既然如此,人类思考的过程最终可以用算力越来越强大的计算机来模拟和取代就不是天方夜谭,而是技术发展的必然结果。
比如,目前任教于普林斯顿大学的韩裔科学家承现峻在他影响甚大的《连接组》一书中写道:“据我所知,没有任何客观的科学证据来证明灵魂的存在。人们为什么相信灵魂的存在?我怀疑宗教是唯一的原因”, “你的身体和大脑与人造的机器并没有本质的区别。”
脑科学和计算机科学的结合一方面会使用机器/算法取代人脑的技术(人工智能)得到快速发展,另一方面也会使借助算法来影响和控制人类行为的技术侵蚀法律的领地。
最近曝光的大数据分析公司“剑桥分析”利用五千万Facebook用户的帐户信息帮助特朗普竞选团队量身定制地投放政治广告从而帮助特朗普在2016年美国总统大选获胜的新闻,便是一个“算法统治”的鲜活例子。
法律是一个相对封闭的自我指涉系统,其本身的形成经过了法律人的分析和加工,并在一定的权威结构内形成规则。因此,将法律编写成代码的过程不是一个对未经选择的大数据进行学习的过程,而是一个有赖于前期加工的过程。
大陆法系的《学说汇纂》和法律评注传统,英美法系的布拉克顿、布莱克斯通、肯特所做的判例整理和评注工作,都是前信息技术时代筚路蓝缕手工整理法律数据的典范。
法律的算法化有赖于法律人将法律知识转化为“可计算化”模块的前期努力。“授计算机以数据,够它用一毫秒;授计算机以搜索,够它用一辈子”的机器学习法则显然不能适用于法律人工智能产品的开发。“有多少人工,就有多少智能”的法则在这个领域体现得十分明显。这其实是法律人的幸运:我们不用担心自己被人工智能取代。但是,法律系统的封闭性和算法在其中得到应用的有限性也使得法律面对算法在影响人类行为方面的竞争时显得捉襟见肘,难以应对。
(一)法律算法化的前提条件
计算机可以处理的问题必须满足三个条件:
(1)这个问题必须可以用形式语言(理想状态是数学)来表述;
(2)针对这个问题必须存在一个算法,即程序化的指令集;
(3)这个算法必须是可编程的。当我们用计算机来处理“数值计算”的问题时,原问题和数值化后的问题是一致的,其间没有转义映射,也就不存在意义/信息流失。
而当我们用计算机来进行知识处理(比如将法律编写成算法)的时候,由于面对的问题非常复杂,就需要对知识进行符号化处理,然后用指称和解释的方法来保持和恢复计算结果的语义。知识本身便已经不是经验本身,而知识的符号化表示是对表示的表示,对符号的再符号化,其间流失的意义很难被完全恢复过来。但是,不经过这样的处理,法律推理和法律决策的过程就无法实现自动化/人工智能化。
在前面提到的1991年创刊的世界上第一份人工智能与法律专业期刊的创刊词中,该刊的编辑们指出了用人工智能来处理法律问题之前需要法律人做出贡献的若干方向,其中包括:
(1)对规范性概念及其与行动、意图和因果关系等常识性概念之间的相互关系进行符号化的表述;
(2)需要通过例子和/或样本来界定开放结构(即有多种解释可能性的)的概念,并且用如此界定的知识来推理;
(3)用模型来表示对抗式的论辩过程以及这一过程支持决策的方式。在此基础上,技术人员才能着手开展法律的算法化工作。
随着自然语言处理(NLP)技术的迅猛发展,如今的机器学习已经不需要人们先把知识重新表述为高度形式化的符号以供机器学习,但法律知识的模型化和标准化工作仍是开发法律人工智能产品的前提。在理想状态下,法律是用经验浸润过的逻辑,也是用逻辑规整过的经验。但现实的法律世界存在大量未经逻辑规整的经验,也存在许多未经经验浸润的逻辑。
法律的算法化其实是在倒逼法律人更加精准和体系化地表述法律知识,否则机器学习的结果可能是杂乱无章、任意武断乃至充满偏见的。
(二)法律算法的应用场景
在现代法治社会,法律的应用场景遍及社会的各个方面,从国家治理到日常纠纷解决,从立法到交通处罚,从学校到监狱。算法是被设计来完成特定任务的。其表现可以通过一定的指标来衡量,这些指标体现了人类在不同场景中的语境化价值选择。
比如,有的场景要求精确性:哪种算法能够更准确地识别出垃圾邮件,是朴素贝叶斯分类器还是支持向量机?有些场景更重视速度:哪种算法更够更快完成案件分类、排序,是插入排序法还是冒泡排序法?有些场景更强调节约资源:哪种算法能够用最小的资源投入(人力、带宽)完成同样的任务?
算法旨在优化完成特定任务的绩效,这些绩效的标准是由特定场景的目的决定的。算法和程序技术的先驱者高德纳(David E. Knuth)教授曾经说过:“不成熟的优化是所有罪恶(或至少是大部分罪恶)的根源。”所谓的不成熟,是指算法与目的不匹配。
人工智能算法至少到目前还不能自己生成目的(如果出现了有自我意识的追求自己目标的强人工智能,人类就更应当担心了),而必须服务于人类设定的目的,寻求给定目的情况下的手段优化。但在社会功能和制度功能高度分化的现代社会,法律系统中每一个子系统都有其功能决定的特定目的。
比如,美国现实主义法学理论家们主张法学的主要目的在于预测。霍姆斯写道:法学的目的是“预测公共暴力借助法院的工具性(instrumentality)而被触发的可能性。”卢埃林也告诉法学院学生,学习法律的“关键在于观察法律官员做什么,他们如何处理纠纷或者其他任何事务,以及观察他们的所作所为,从中寻找某种独特的规律性——这种规律性使人们有可能对法律官员及其他官员今后的所作所为作出预测。”
这是因为美国法学院是以培养律师为己任的,大部分法学院毕业生都会当律师,即使想当法官,也要先从律师干起。
作为律师,当然需要预测法官会如何判决。但如果说法官工作的目的也是预测自己或别的法官如何判案,则完全不符合现实。法院的判决是权威结构中的规则适用。大法官杰克逊尝言:“我们(的判决)是最终的,并不是因为我们不会犯错误;相反,我们不会犯错误,因为我们是最终的。”如果整个法律职业都去预测,“预测什么”就会成为一个问题。
实际上,法律是一个人为建构的决定论系统,法院的判决通过国家强制力的保障变得和自然规律一样不可动摇,既判力(Res judicata)就是人为拟制的自然力。
霍布斯曾一语道破:“权威,而不是真理,创造了法律(Authoritas non Veritas facit Legem)。”正是因为司法判断具有权威性,而权威需要有正当性基础,正当性来自于社会共识,直到有一天社会大众接受机器人当法官,认为算法比人类更加“无惧无私”,司法判断的算法化才有意义。
法律职业内部的角色分工也决定着算法在不同法律场景中的应用前景。比如,我国的法律人工智能事业主要是政府推动的,智慧法院、智慧检务、智慧政务都被纳入了国家的整体人工智能发展战略。但人工智能在涉及权威性法律判断的场合只能起辅助作用,不能取代人类做出自动化决策,否则便会产生谁来承担责任的问题。
在美国,人工智能在法律职业中的应用主要靠律师界在推动,法院对人工智能的应用保持着审慎的态度。上文中提到的Loomis案就从一个侧面反映了概率论的预测算法在美国刑事司法中的有限应用及其限度。而这种算法的更广阔应用场景是律师业。
(三)概率论的法律算法:以美国律师职业中的算法产品为例
(略)
(四)决定论的法律算法
哥德尔指出,一个系统不可能同时是内部逻辑一致的和完整的。法教义学和社科法学之间的争论也可以被视为追求系统内部融贯性与追求系统与外部环境/社会环境契合性的两种努力方向之间的竞争。符号主义的算法设计与法教义学的思维方式有着最明显的表面相似性,两者都试图在封闭的自我指涉内实现融贯性与确定性。
法律规则就是一个符号系统,它将规则和事实用文字/符号加以表述,并以一定的方法对符号进行处理,将事实区分为相关与无关,并进一步将相关事实进行合法/非法的编码处理。
早在机器学习出现之前,符号主义的编程方法就被用来开发法律专家系统,由法律专家提供法律概念、分类和推理方面的知识,由程序员将这些知识编写成计算机代码,供人们搜索法律知识,寻找法律问题的答案。早期的法律人工智能产品主要是在成文法和判例数据库的基础上根据术语使用频率等显著指标制作索引方便查询的系统。
有学者提醒我们注意不要夸大“人工智能”在法律领域的应用现状,指出:直到今天:“尽管信息技术在法律工作中的应用已经发生了很大变化,这些变化主要来自于通常的信息技术应用,比如数据处理、数据储存、检索和管理,再加上信息丰富、流动迅速和全球化的互联网通讯和联网能力。”也就是说,目前在司法领域领域应用的人工智能产品大多只是封闭的“专家系统”,而不是有自主学习能力的“人工智能”。
符号主义的核心理念就是“所有和智力相关的工作都可以归结为对符号的操纵”。既然所有的知识都可以用符号表示,而符号可以脱离它的基质,就可以让计算机学习各种符号,采用逆向演绎(即归纳)的方法来总结规则,然后再把规则正向适用于各种用符号表示的事实情境的可能性用决策树表示出来。
但符号主义的算法以对原始数据的符号化处理为前提,是一个封闭系统,并不能节省多少人力。实际上,多数法律人(包括法理学家)都没有受过将法律推理过程用符号逻辑表述出来的训练,更习惯于用含糊的、道德化的或有歧义的语词来表述法律概念和法律论证,而且将这视为法律有人性、有温度的体现。在符号主义的框架里面,我们无法教机器学会我们自己不会的东西。
但符号主义的算法可以帮助概念法学和分析法学的追随者们实现“耶林之梦”。耶林曾经做过一个梦,梦境中自己进入了专为造诣精深的法学家准备的天堂,在那里他看到了完美的、不沾人间烟火气的概念体系,每个人概念都分殊出若干子概念,如此层层递进,涵盖着所有可以想象的法律关系。
马克斯·韦伯也把这种基于《学说汇纂》(潘德克顿)理论体系而发展出的自恰法律系统视为形式理性法的理想状态,在其中:
(1)每一项具体的法律决定都是某一抽象的法律命题向某一具体‘事实情境’的‘适用’;
(2)在每一具体案件中,都必定有可能通过法律逻辑的方法从抽象的法律命题导出裁决;
(3)法律必须实际上是一个由法律命题构成的“没有漏
洞”(gapless)的体系,或者,至少必须被认为是这样一个没有空隙的体系;
(4)所有不能用法律术语合理地‘分析’的东西也就是法律上无关的;
以及,(5)人类的每一项社会行动都必须总是被型构为或是一种对法律命题的“适用”或“执行”、或是对它们的“违反”,因为法律体系的“没有漏洞”性(gaplessness)必定导致对所有社会行为的没有漏洞的“法律排序”(legal ordering)。
借助符号主义的算法,这样一个封闭的决定论系统可以变得越来越概念精细、逻辑融贯。在印刷术时代孤军奋战的布莱克斯通将法律问题分成110个类型,而万律(Westlaw)在互联网技术的帮助下雇用了数以百计的“抄写员”,将法律问题分成了数以万计的类型,编写成了Westlaw Digests。进一步的细分在人工智能时代变得越来越容易。
类比推理是另一种得出法律判断的重要推理方式。有法学家写道:“如果说比喻是语言的点睛之笔,类比就是法学语言中的头脑风暴(brainstorm)。”
在上面提到的《学术汇纂》中的问答中,法学家将“放开某物令其对他人造成伤害”类比于“主动拿出武器伤害他人”,从而将同样的规则适用于这两种不同的事实情境。普通法的遵循先例(stare decisis)原则的核心就是类比推理,要求找到正在审理的案件与先例之间的事实相似性,从而确定是否适用先例中的规则。
法律推理和医学推理都可以被看成是一种为了解决实际问题而展开的决疑术推理,这种推理实现并不给定大前提,而是从小前提(对问题事实的观察和描述)中寻找蛛丝马迹,然后关联到类型化的知识图谱之中,从而给出一个并不保证绝对正确却有助于解决问题的方案。
决疑术体现着“通过从一套核心的典型案例分类体系中获取知识来解决实际问题,借助范式和类推来组织论证”的思维方式。而类比推理正是智能算法的核心理念之一,类推主义是《终极算法》一书所总结出的五大算法流派之一。在给定案例数据库的基础上,算法很容易找出类似的事实情境并将其关联于相应的规则。“相似案件相似判决”是借助算法比较容易实现的目标。
符号主义和类推主义的算法都可以得出确定的决策,可以变成自主决策系统。但我们可以把这种机器决策作为参照,在此基础上由人类决策者作出可执行的决策。只要没有把机器的自主决策设定为自动执行,就不会取消人类决策者的判断权和相应的责任。
(五)遗传算法与政策/法律的虚拟试错
萨维尼指出:法律固然是一种“形式”(Gestalt),
“
“但法律存在于人民(Volk)的意识之中的那种形式不是抽象规则的形式,而是一种活的直观洞见(Anschauung),这种洞见揭示出存在于生活的有机整体中的法律构造,因此,当我们需要知道以逻辑形式表达的抽象规则的时候,我们便需要通过一个人工的过程把它从那种整体洞见中抽离出来,然后加以表述。”
这个“人工的过程”如今也可以用人工智能来实现。
进化是生物物种在应对纷繁复杂且不断变化的外部环境时通过自然选择并借助基因传递而优化自身结构的过程。生物进化是一种学习,不过是在漫长的时间和无数世代的生存考验中实现的学习。计算机可以模拟生物进化,在较短的时间内实现生物在漫长时间里的“学习”。
解决人类问题的难点在于我们不能拿人来做试验,或者说,虽然拿人做试验的事情在人类社会屡见不鲜,但人类不会认为这样做是正当的。但历史是一个已完成试验的资料库,其中有些试验是人类付出了数以千万计的生命作为惨痛代价的,除了发思古之幽情或恨古之怨忿外,我们应当能够从历史中学到些什么,方不枉昔人之牺牲。
马克·吐温说过一句十分机智的话:“历史不会重复,它只押韵。”正是因为历史不仅事件繁多,而且因果关系复杂,类似事件放在不同的外部环境中会产生迥然相异的结果,所以简单的线性思维以及同因必然同果的决定论思维不仅无法给我们正确的引导,反而会让我们误入歧途。
此外,往事已矣,留给我们的只是具体的人的记录,这些记录本身就是不完整的,越是同时代人的记录,越体现着记录者的恩怨情仇乃至政治图谋,因此会出现完全不同的事件描述和因果叙事。我们缺乏在人类事务领域理性地处理复杂性问题的能力,这主要不是因为人文学者缺乏科学训练,而是因为人类事务本身无法被化约为几个变量或几个参数。
但人工智能的出现使我们看到了新的希望,至少数字化时代之后的人类经验不再依靠少数几个同时代人的记录,而体现在海量的大数据中。整全数据分析将取代抽样分析,强大的计算能力能够处理无限量的变量。
同时,人类往往面对多个目标之间的冲突,实现一个目标的优化方案往往会损害乃至阻碍另一个目标的实现。以环境保护为例,单纯的环保主义者往往忽视了经济因素,未能充分理解经济发展必然需要对自然资源的耗费性利用,而试图在环境和经济之间达致某种平衡的人可能又忽视了环境成本或经济发展利益的不公平分配问题。
可持续发展需要综合考虑环境(Environment)、经济(Economy)和公平(Equality)这三个目标(3E)。面对这种多目标决策所蕴涵的复杂性,人类决策者往往因为计算能力有限或认知偏差而无法找出最优解。演进算法善于处理复杂性问题,如今已有将其用于在复杂情境中生成并测试规则设计的尝试。
未来法治
2016年12月,一件涉及亚马逊的人工智能家务助手Echo的新闻引起了广泛关注。在侦查一起谋杀案的过程中,阿肯色州本顿维尔(Bentonville)警方要求调取犯罪嫌疑人詹姆斯·贝茨(James Andrew Bates)家里的Echo在案发当晚录下的声音,这些音频资料储存在亚马逊的云端服务器里。
亚马逊以涉及用户隐私为由拒绝提供音频资料,但提供了贝茨的帐户信息和购买记录。警方声称根据获得信息已经从Echo装置里提取了当晚的信息,但拒绝透露这些信息的内容。
此外,贝茨家里还有其它的智能电子设备,比如智能水表,该水表记录着案发时段(即凌晨1-3点)贝茨家里一共用了140加仑的水,可以佐证他可能用水冲洗掉了犯罪痕迹。
这个事件是我们身处的物联网+人工智能时代的典型事件,我们周围的各种智能产品可能随时“偷听”或“偷看”着我们的一举一动,它们记录下来的信息不仅存储在设备本身当中,而且还上传到了“云端”。仅仅删除设备中的信息并不能抹掉全部的痕迹。这些信息可以帮助警方破案,帮助司法部门掌握事实真相,但也可能被滥用。
即使这些信息是被执法和司法部门用来维持法律秩序,这种使用也会与个人的隐私权发生冲突。安全、秩序与隐私、个人权利之间的永恒冲突在这种技术碾压隐私的大背景中显得无比尖锐。这也迫使我们思考法治在人工智能时代的未来走向。
首先,主流的法治理论认为法治与法制的主要区别在于:后者是工具主义的,法律被当成统治的工具,但无法约束统治者本身;后者是权利本位的,法律不仅约束公民,更约束公权力。在这种法治框架下,政府成为法律(尤其是公法)的监控对象。
但大数据分析技术和人工智能正在改变社会的治理结构和秩序生成机制,谁掌握了数据和分析数据的技术,谁就能影响和控制人的行为。大到总统选举,小到日常购物,智能化的数据分析和行为诱导机制在其中发挥着越来越大的作用,而背后的操纵者往往不再是政府。
新技术的发明者、投资者和鼓吹者们往往会夸大技术带来的“解放”效应,宣称人工智能和区块链等技术将使一切中心和中介变得没有必要,从而瓦解人类社会的金字塔结构,使有序的人际关系变得越来越呈网状分布,每个人都是中心,每个人也都不可能控制整个网络。
但实际结果却是,金字塔依然存在,基底依然是芸芸众生,但塔尖却分裂成了政府、资本力量和技术力量。则三种力量有时会合并起来,有时又会相互对峙,但它们之间的关系并不受基座的影响。藐视政治权威的技术达人(黑客)并不会解放全人类,而只会破坏既定的法律秩序。与政府讨价还价的商业力量也不会“制衡”公权力,而只是追逐利润。
上文中提到的“剑桥分析”公司助力特朗普赢得美国总统大选的例子表明,大数据掌控者已经不只是通过数据分析来进行预测,还有能力将某些预测变成自我实现的预言。同时,法律所建构起来的公与私、政治权力与商业力量之间的区隔已经变得弱不经风。
今天的互联网和智能产品企业就像是一个世纪前的铁路公司和电报电话公司,它们“创造和统治着我们的交流空间,并因此控制着我们的生活,这种控制程度远远超过其它任何私人群体。”它们被称为“监控中介”(surveillance intermediaries),挑战着国家对安全和秩序事务的垄断,但并没有带来更多的安全和秩序。
苹果公司曾经因拒绝政府要求披露用户信息而获得自由主义者们的普遍赞誉。2015年12月2日,美国加州圣贝纳迪诺发生了美国本土自911之后最严重的恐怖袭击,宣誓效忠“伊斯兰国”的赛义德·法鲁克(Syed Rizwan Farook)和 塔什芬·马利克(Tashfeen Malik)在开枪射杀14人、射伤20多人后被警察击毙。联邦调查局查获了法鲁克的Iphone手机,为了获得犯罪调查和反恐所需要的信息,它在获得法院授权的情况下向苹果公司发出了解锁该手机的要求。
但苹果公司拒绝合作,公司总裁蒂姆·库克还在公司网站上发布了一封公开信,谴责联邦调查局的要求“破坏了我们的政府旨在保护的那种权利和自由。”对苹果公司而言,这是一次成功的公众形象宣传。在对于美国的国家安全和公众的生命安全而言,这不见得是件好事。
基本公共服务(包括国防和治安)领域的公、私权力关系是未来法治需要解决的首要问题。以政府为主要规制和防范对象的现有公法体系需要考虑技术革新和权力结构变化所带来的新问题,一方面将透明、公开、程序合法、说明理由等对公权力行使者的要求延伸到实际上行使着“准公权力”的私人(包括企业和个人),使算法等技术化的监控和决策手段不再是无法被问责的“黑箱”,另一方面延伸和调整传统的公法概念体系(包括“公共服务”)和规制手段,以应对现时代公私合作、公私共治的普遍现象。
其次,在技术日益智能化的时候,法律的日益技术化会使它很容易被技术所取代,而如果两者都趋向于只讲手段不问目的的工具理性,则人类引被引向不可知的未来,这个未来很可能是万劫不复的深渊。
工具理性取代价值理性的趋势在现代化的早期便已经暴露无疑了,现代政治思想的奠基者霍布斯系统打造了人类无中生有地创造和管理世界的理论,法律和工程技术都是这种“创世”工作的工具。
奥克肖特敏锐地指出了“意志与人造物”在霍布斯思想中的核心地位,他发现霍布斯“通常不会提及理性,这一将人与上帝联系的人类心智的神性光亮;他提及的是推理(reasoning)。”
霍布斯十分明确地写道:“旧道德哲学家所说的那种极终的目的和最高的善根本不存在。欲望终止的人,和感觉与映像停顿的人同样无法生活下去。幸福就是欲望从一个目标到另一个目标不断地发展,达到前一个目标不过是为后一个目标铺平道路。所以如此的原因在于,人类欲望的目的不是在一顷间享受一次就完了,而是要永远确保达到未来欲望的道路。”
从某种意义上,人类的欲望种类从未改变,只是满足欲望的技术手段越来越先进。没有方向和目标地追求欲望的满足在以人工智能作为技术手段的时代比任何时候都更加危险。
卢曼敏锐地指出:“人工智能研究关心的是如何操纵‘符号’,而不是如何形成意义。”技术是在给定目的的前提下追求最优解决方案的活动,技术本身不是目的,也无法自动形成自己的目的。作为一种技术,人工智能也是服务于特定的人类目的的,我们应当追问:我们到底想用人工智能来干什么?
当然,认为人类总是很清楚自己的目的是人文学者一厢情愿的幻想。在许多时候,人并不清楚自己想干什么。
霍姆斯曾经指出:
“
“⋯⋯我心目中一直认为一切都要靠科学,因为最终只有科学能够在其已经发展到的水平限度内确定我们的不同社会目标的相对价值,正如我曾经暗示的那样,正是因为我们对这些目标的权重往往只有盲目和无意识的估算,才导致我们坚持并扩大某一原则的适用范围,而让其它[或许同样重要甚至更加重要的]原则逐渐零落成泥。”
包括人工智能在内的科学技术可以打开我们的视野,帮我们看到人类可以走多远,并澄清我们可以选择的目的的疆界。但最终需要人类自己来做出选择。法律无法确定人类社会发展的终极目的,但必须体现一些基础性的底线价值(比如人的尊严和平等)以及程序性的要求(比如决策的公开性、透明性、公正性)。体现人类价值的法律框架不可能限定技术可以到达的目标,但却可以引导它的发展方向。
第三,人工智能所体现的技术理性有明显的化约主义倾向,我们可以借助它来提高效率,取代一部分无需创造性和价值判断的工作,但不能由它来做出事关人类福祉的最终决策。
法律所调整的是人与人之间的关系,因此法律不必去直接规制技术,而应当规制使用技术的人。从更深的层面上讲,法律应当去规制被技术改变后的社会中的人,从而使技术对人类社会的影响能够朝着善和正义的方向去发展。
人不应当允许自己的自我认识被技术所左右;
他应当向反抗任何导致主体性丧失的支配关系一样去反抗对技术的依赖;
如果他想要拯救自己的人性和自主性,他就应该把自己从技术和支配所导致的异化中拯救出来。
法律和技术都是人造物,越“先进”的法律和技术越是经过无数层人为设计之递进后远离自然的人造物,自然的人的因素很容易在这层层递进中消失, 如果我们最终用算法化的法律来制定和实施算法的法律,人最终就会成为可有可无的存在。
人必须是算法的立法者和控制者,法律的算法与算法的法律不应成为一个闭环,它们中间必须有人作为起点和终点。要将社会生活的复杂事实带入一定的法秩序,规范塑造者需要在相关事实和基于规范文本的秩序标准之间保持“目光之往返流转”。
能够做到这一点的只有训练有素的法律人。
推荐阅读
於兴中:必须警惕“人工智能万能论”,科技乌托邦不是人类的未来
李本(Benjamin L. Liebman):美国司法实践中的人工智能问题与挑战
吴汉东、张平、张晓津:人工智能对知识产权法律保护的六大挑战(下)
吴汉东、张平、张晓津:人工智能对知识产权法律保护的六大挑战(上)